This report summarizes the 3rd International Verification of Neural Networks Competition (VNN-COMP 2022), held as a part of the 5th Workshop on Formal Methods for ML-Enabled Autonomous Systems (FoMLAS), which was collocated with the 34th International Conference on Computer-Aided Verification (CAV). VNN-COMP is held annually to facilitate the fair and objective comparison of state-of-the-art neural network verification tools, encourage the standardization of tool interfaces, and bring together the neural network verification community. To this end, standardized formats for networks (ONNX) and specification (VNN-LIB) were defined, tools were evaluated on equal-cost hardware (using an automatic evaluation pipeline based on AWS instances), and tool parameters were chosen by the participants before the final test sets were made public. In the 2022 iteration, 11 teams participated on a diverse set of 12 scored benchmarks. This report summarizes the rules, benchmarks, participating tools, results, and lessons learned from this iteration of this competition.
translated by 谷歌翻译
Safety is one of the biggest concerns to applying reinforcement learning (RL) to the physical world. In its core part, it is challenging to ensure RL agents persistently satisfy a hard state constraint without white-box or black-box dynamics models. This paper presents an integrated model learning and safe control framework to safeguard any agent, where its dynamics are learned as Gaussian processes. The proposed theory provides (i) a novel method to construct an offline dataset for model learning that best achieves safety requirements; (ii) a parameterization rule for safety index to ensure the existence of safe control; (iii) a safety guarantee in terms of probabilistic forward invariance when the model is learned using the aforementioned dataset. Simulation results show that our framework guarantees almost zero safety violation on various continuous control tasks.
translated by 谷歌翻译
人类机器人相互作用(HRI)是提高现代生产线灵活性的重要组成部分。但是,在实际应用程序中,任务(\ ie机器人需要操作的条件,例如环境照明条件,与人类的受试者进行互动以及硬件平台)可能会有所不同,并且在最佳方面仍然具有挑战性并有效地配置和调整这些不断变化的任务下的机器人系统。为了应对挑战,本文提出了一个任务不足的适应性控制器,可以1)适应不同的照明条件,2)适应个人行为并确保与不同的人互动时的安全性,3)3)启用具有不同机器人平台的轻松传输控制接口。使用FANUC LR MATE 200ID/7L机器人和Kinova Gen3机器人对人类机器人切换任务进行了测试。实验表明,所提出的任务无形控制器可以在不同任务上实现一致的性能。
translated by 谷歌翻译
控制系统通常需要满足严格的安全要求。安全指数提供了一种方便的方法来评估系统的安全水平并得出所得的安全控制策略。但是,在控制范围内设计安全指数功能是困难的,需要大量的专家知识。本文提出了一个框架,用于使用方案总和编程合成通用控制系统的安全指数。我们的方法是表明,确保对安全设置边界的安全控制的非空缺等同于当地的多种积极问题。然后,我们证明了这个问题等同于通过代数几何形状的Pitivstellensatz进行编程。我们验证具有不同自由度和地面车辆的机器人臂上的拟议方法。结果表明,合成的安全指数可确保安全性,即使在高维机器人系统中,我们的方法也有效。
translated by 谷歌翻译
模型不匹配在现实世界应用中占上风。因此,为具有不确定动态模型的系统设计可靠的安全控制算法很重要。主要的挑战是,不确定性导致难以实时寻找可行的安全控制。现有方法通常简化了问题,例如限制不确定性类型,忽略控制限制或放弃可行性保证。在这项工作中,我们通过为有限国家依赖性的不确定性提出一个强大的安全控制框架来克服这些问题。我们首先通过学习控制控制限制,不确定的安全性索引来保证安全控制不确定动态的可行性。然后,我们证明可以将稳健的安全控制作为凸问题(凸度半侵入编程或二阶锥编程)配制,并提出可以实时运行的相应最佳求解器。此外,我们分析了在未建模的不确定性下何时以及如何保留安全性。实验结果表明,我们的方法成功地发现了针对不同的不确定性实时的可靠安全控制,并且比强大的基线算法要保守得多。
translated by 谷歌翻译
位置识别是可以协助同时定位和映射(SLAM)进行循环闭合检测和重新定位以进行长期导航的基本模块。在过去的20美元中,该地点认可社区取得了惊人的进步,这吸引了在计算机视觉和机器人技术等多个领域的广泛研究兴趣和应用。但是,在复杂的现实世界情景中,很少有方法显示出有希望的位置识别性能,在复杂的现实世界中,长期和大规模的外观变化通常会导致故障。此外,在最先进的方法之间缺乏集成框架,可以应对所有挑战,包括外观变化,观点差异,对未知区域的稳健性以及现实世界中的效率申请。在这项工作中,我们调查针对长期本地化并讨论未来方向和机会的最先进方法。首先,我们研究了长期自主权中的位置识别以及在现实环境中面临的主要挑战。然后,我们回顾了最新的作品,以应对各种位置识别挑战的不同传感器方式和当前的策略的认可。最后,我们回顾了现有的数据集以进行长期本地化,并为不同的方法介绍了我们的数据集和评估API。本文可以成为该地点识别界新手的研究人员以及关心长期机器人自主权的研究人员。我们还对机器人技术中的常见问题提供了意见:机器人是否需要准确的本地化来实现长期自治?这项工作以及我们的数据集和评估API的摘要可向机器人社区公开,网址为:https://github.com/metaslam/gprs。
translated by 谷歌翻译
我们提出了BioSlam,这是一个终生的SLAM框架,用于逐步学习各种新出现,并在先前访问的地区保持准确的位置识别。与人类不同,人工神经网络遭受灾难性遗忘的困扰,并在接受新来者训练时可能会忘记先前访问的地区。对于人类而言,研究人员发现,大脑中存在一种记忆重播机制,可以使神经元保持活跃。受到这一发现的启发,Bioslam设计了一个封闭式的生成重播,以根据反馈奖励来控制机器人的学习行为。具体而言,BioSlam提供了一种新型的双记忆机制来维护:1)动态记忆有效地学习新观察结果,以及2)平衡新老知识的静态记忆。当与基于视觉/激光雷达的SLAM系统结合使用时,完整的处理管道可以帮助代理逐步更新位置识别能力,从而强大,从而增强长期位置识别的复杂性。我们在两个渐进式猛击场景中展示了Bioslam。在第一种情况下,基于激光雷达的特工不断穿越具有120公里轨迹的城市尺度环境,并遇到了不同类型的3D几何形状(开放街,住宅区,商业建筑)。我们表明,BioSlam可以逐步更新代理商的位置识别能力,并优于最先进的增量方法,即生成重播24%。在第二种情况下,基于激光镜的代理商在4.5公里的轨迹上反复穿越校园规模区域。 Bioslam可以保证在不同外观下的最先进方法上优于15%的地方识别精度。据我们所知,BioSlam是第一个具有记忆力增强的终身大满贯系统,可以帮助长期导航任务中的逐步识别。
translated by 谷歌翻译
在本文草案中,我们考虑了安全控制系统安全索引或(控制屏障函数(松散))相对程度等于两个的问题的问题。我们考虑参数仿射非线性动态系统,并假设参数不确定性是统一的,并且已知A-Priori或通过估算器/参数适应定律在线更新。在这种不确定性下,通常的CBF-QP安全控制方法采用了强大的优化问题的形式。不等式约束的右侧和左侧都取决于未知参数。通过给定的不确定性表示,CBF-QP安全控制最终是凸半无限问题的问题。使用两种不同的哲学,一种基于弱二元性,另一个基于无损S生产的哲学,我们得出了此强大的CBF-QP问题的相同的SDP公式。因此,我们表明,可以将具有已知参数不确定性的安全控制的问题提出为可处理的凸问题并在线解决。 (这是正在进行的工作)。
translated by 谷歌翻译
没有人类在真空中开车。她/他必须与其他道路使用者进行谈判,以在社交交通场景中实现目标。理性的人类驾驶员可以通过隐式通信以社交兼容的方式与其他道路使用者进行互动,以便在互动密集型,关键的安全环境中平稳地完成其驾驶任务。本文旨在审查现有的方法和理论,以帮助理解和重新考虑人类驱动因素与社会自主驾驶之间的互动。我们进行此调查以寻求一系列基本问题的答案:1)道路交通场景中的社交互动是什么? 2)如何衡量和评估社会互动? 3)如何建模和揭示社会互动的过程? 4)人类驾驶员如何达成隐性协议并在社交互动方面平稳地谈判?本文回顾了建模和学习人类驱动因素之间的社会互动的各种方法,从优化理论和图形模型到社会力量理论以及行为和认知科学。我们还重点介绍了一些新的方向,关键挑战和未来研究的开头问题。
translated by 谷歌翻译
许多协作的人类机器人任务要求机器人保持安全并在人类周围有效地工作。由于机器人只能在其自己的人类模型方面保持安全,因此我们希望机器人能够学习人类的好模型,以便安全有效地采取行动。本文研究了使机器人能够安全地探索人类机器人系统的空间以改善机器人的人类模型的方法,从而使机器人可以访问更大的状态空间并与人类更好地工作。特别是,我们在基于能量功能的安全控制框架下引入了主动探索,研究不同的主动勘探策略的效果,并最终分析了安全主动探索对分析和神经网络人类模型的影响。
translated by 谷歌翻译